光子芯片,硬刚英伟达NVLink
据接受《EE Times》独家采访的高管透露,初创芯片制造商 Celestial 和 OpenLight 最早将于今年生产出首批芯片,为亚马逊、微软和谷歌等运行 AI 数据中心的超大规模客户提供更快的光子学和更低的功耗。
据接受《EE Times》独家采访的高管透露,初创芯片制造商 Celestial 和 OpenLight 最早将于今年生产出首批芯片,为亚马逊、微软和谷歌等运行 AI 数据中心的超大规模客户提供更快的光子学和更低的功耗。
英伟达将向英特尔注资50亿美元,双方将联合开发PC与数据中心芯片。18日晚间的这一重磅消息引发业界关注。“这一合作是对计算已经发生根本性变化的印证,我们现在要把最好的CPU和最好的GPU结合起来。”北京时间19日凌晨1点的新闻发布会上,双方CEO连线直播,英伟
AI 模型复杂性的指数级增长驱动参数规模从数百万迅速扩展到数万亿,对计算资源提出了前所未有的需求,必须依赖大规模 GPU 集群才能满足。混合专家(MoE)架构的广泛应用以及测试时扩展(test-time scaling)在推理阶段的引入,进一步加剧了计算负载。
今年的Hot Chips 2025厂商依然大秀肌肉,其中最值得关注的,莫过于华为推出的UB-Mesh技术,该技术旨在通过单一协议统一AI数据中心内外部节点的所有互联,并用单一协议取代PCIe、CXL、NVLink和TCP/IP协议。
利用其Hot Chips 2025大会的演讲契机,华为推出了UB-Mesh技术,该技术旨在通过单一协议统一AI数据中心内外部节点的所有互连。该公司还表示,将在下个月的活动中宣布向所有用户免费开放该协议。
英伟达(Nvidia)在今年5月的台北电脑展(COMPUTEX 2025)上公布了NVLink Fusion计划,向8家合作伙伴开放了其 NVLink 技术,以帮助他们构建通过将多个芯片连接在一起而实现的强大的定制AI系统。但是,根据 DigiTimes 最新
在今年COMPUTEX 2025上,英伟达发布了一系列公告,重点关注的是数据中心和企业人工智能(AI)市场,以进一步扩大自身在这些领域的影响力。其中包括推出NVLink Fusion,允许客户和合作伙伴将英伟达的NVLink技术用于自身的定制机架级设计。
英伟达 fusion nvlink nvlinkfusion 2025-06-20 10:08 11
Nvidia 成为 AI 革命硬件巨头的原因众多,除了众所周知得CUDA护城河,NVLink 内存共享端口无疑也是其中之一。早在 2016 年,该端口就开始在其 Pascal P100 GPU 加速器上推出。如今,在该领域耕耘近十年后,随着 UALink 联盟
随后,他用 5 大“支柱”把这座 AI 工厂,从抽象理念,变成了可以部署、可以布线、可以交付的系统工程:
过去十年,AI算力大战像是一次“硬件加速版”的《速度与激情》:上一秒GPU仍在领跑,下一秒就有ASIC、TPU、NPU等各种“改装赛车”呼啸而来。我们从去年下半年开始讨论ASIC,今年初讨论PD分离和MoE架构对于NV的影响,很早就关注到了模型技术演进对于底层
前段时间介绍超节点(最近很火的“超节点”,到底是干啥的?「链接」)的时候,有很多读者追问NVLINK的细节。
英伟达(NVDA.US)CEO黄仁勋公布了多项技术进展,其中NVLink Fusion系统的发布被美国银行视为“最具战略意义”的动作。该技术允许数据中心将英伟达GPU与第三方CPU或定制化AI加速器混合使用,标志着英伟达正式打破硬件生态壁垒,向更广阔的市场发起
英伟达 fusion nvlink nvlinkfusion 2025-05-19 21:52 11
5月19日,在2025年台北电脑展(COMPUTEX 2025)的开幕式主题演讲环节当中,英伟达CEO黄仁勋登台做了将近两个小时的演讲,发布了一系列英伟达公司在软硬件方面的更新,并介绍了他在未来全球AI领域的畅想。同时,还宣布在中国台北建立新办事处“Nvidi